专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果8121个,建议您升级VIP下载更多相关专利
  • [发明专利]为数据库确定卷积神经网络CNN模型的装置和方法-CN201611095599.7有效
  • 孙利;王淞;范伟;孙俊 - 富士通株式会社
  • 2016-12-01 - 2021-11-02 - G06N3/04
  • 本发明涉及为数据库确定卷积神经网络CNN模型的装置和方法。根据本发明的为数据库确定CNN模型的装置包括:选取单元,用于从多个已知分类能力的CNN模型中选取至少两个CNN模型;拟合单元,用于根据至少两个CNN模型的分类能力和第一参数拟合以分类能力和第一参数为变量的曲线,其中,第一参数用于表征CNN模型的性能;预测单元,用于根据曲线预测其它CNN模型的第一参数;以及确定单元,用于根据每一个CNN模型的第一参数从多个CNN模型中确定适用于数据库的CNN模型。使用根据本发明的为数据库确定CNN模型的装置和方法,无需对所有CNN模型进行训练,大大降低了计算量,简化了设计CNN模型的流程。
  • 数据库确定卷积神经网络cnn模型装置方法
  • [发明专利]CNN加速器和电子设备-CN202010980637.7有效
  • 刘锴;宋宁;范召;杜金凤 - 广东高云半导体科技股份有限公司
  • 2020-09-17 - 2021-08-03 - G06N3/063
  • 本发明提供了一种CNN加速器和电子设备,所述CNN加速器包括设置在MCU内核中的CNN训练器、设置在FPGA内核中的CNN引擎器和CNN存储器,可以将MCU内核的数据处理能力和FPGA内核的并行处理能力及可编程能力相结合,由此提高了CNN加速器的数据处理速度和并行处理能力,能够兼容卷积神经网络的训练阶段和推断阶段。且CNN训练器获得的训练权重值直接传输到CNN引擎器,可以随时优化CNN引擎器中各层级间的权重分布,降低推断错误率。此外,使用FPGA内核的存储资源作为CNN存储器,节省了CNN引擎器内各执行单元与CNN存储器之间的读写时间,在一定的存储容量下保证了数据的读写速率,从而加快了CNN加速器整体的运算效率。
  • cnn加速器电子设备
  • [发明专利]确定卷积神经网络CNN模型的装置和方法-CN201611095600.6有效
  • 孙利;王淞;范伟;孙俊 - 富士通株式会社
  • 2016-12-01 - 2020-06-26 - G06K9/62
  • 本发明涉及确定卷积神经网络CNN模型的装置和方法。根据本发明的确定CNN模型的装置包括:第一确定单元,用于确定包括多个样本的数据库的复杂度;第二确定单元,用于根据数据库的复杂度确定适用于数据库的CNN模型的分类能力;第三确定单元,用于获取多个候选CNN模型中的每个候选CNN模型的分类能力;以及匹配单元,用于根据每个候选CNN模型的分类能力以及适用于数据库的CNN模型的分类能力确定适用于数据库的CNN模型。使用根据本发明的确定CNN模型的装置和方法,可以简化CNN模型的设计流程,使得作为用户的普通人员也能够容易地设计和调整CNN模型,并能够根据数据库的复杂度为该数据库确定出更匹配的CNN模型。
  • 确定卷积神经网络cnn模型装置方法
  • [发明专利]一种基于FPGA的深度学习加速方法-CN202110637295.3在审
  • 马桂芝 - 南京广捷智能科技有限公司
  • 2021-06-08 - 2021-08-13 - G06N3/04
  • 本发明公开了一种基于FPGA的深度学习加速方法,包括运动检测模块,其用于检测与视频图像中的运动对象相对应的候选图像区域;第一CNN模块,其使用具有第一图像尺寸的滑动窗口处理运动检测模块检测到的候选图像区域,并在候选图像区域内生成第一人脸窗口;第一图像尺寸在第一CNN模块的最大输入图像尺寸与最小输入尺寸之间;第一CNN模块、第二CNN模块、第三CNN模块均采用硬件CNN模块,并且第一CNN模块、第二CNN模块与第三CNN模块耦合;本发明能够基于输入图像尺寸小的小型的输入硬件CNN模块处理高像素的图像,并且对于硬件CNN模块的架构进行优化,使其能够并行加速卷积,能够同时保证图像处理的速率。
  • 一种基于fpga深度学习加速方法
  • [发明专利]一种基于PE架构通道的卷积神经网络加速器-CN202210311313.3在审
  • 罗斌 - 南京广捷智能科技有限公司
  • 2022-03-28 - 2022-06-24 - G06N3/04
  • 本发明公开了一种基于PE架构通道的卷积神经网络加速器,包括运动检测模块,其用于检测与视频图像中的运动对象相对应的候选图像区域;第一CNN模块,其使用具有第一图像尺寸的滑动窗口处理运动检测模块检测到的候选图像区域,并在候选图像区域内生成第一人脸窗口;第一图像尺寸在第一CNN模块的最大输入图像尺寸与最小输入尺寸之间;第一CNN模块、第二CNN模块、第三CNN模块均采用硬件CNN模块,并且第一CNN模块、第二CNN模块与第三CNN模块耦合;本发明能够基于输入图像尺寸小的小型的输入硬件CNN模块处理高像素的图像,并且对于硬件CNN模块的架构进行优化,使其能够并行加速卷积,能够同时保证图像处理的速率。
  • 一种基于pe架构通道卷积神经网络加速器
  • [发明专利]处理卷积神经网络的方法-CN201911171097.1在审
  • 伍捷;马云汉;谢必克;李湘村;苏俊杰;刘峻诚 - 耐能智慧股份有限公司
  • 2019-11-26 - 2020-06-19 - G06N3/04
  • 本发明提供了一种处理卷积神经网络的方法,包含将输入数据输入至浮点预训练CNN模型以产生浮点预训练CNN模型的每层的浮点特征图,将浮点特征图输入至统计分析模拟器以产生浮点预训练CNN模型的每层的动态量化范围,依据浮点预训练CNN模型的每层的动态量化范围对浮点预训练CNN模型的每层的特征值进行量化以产生量化CNN模型的每层的特征值、量化CNN模型的每层的纯量因子、及量化CNN模型的分数位,及将量化CNN模型的每层的特征值输入至推论引擎以使用低精度的定点算数操作来产生定点推论CNN模型的每层的特征值。
  • 处理卷积神经网络方法
  • [发明专利]一种在FPGA上部署CNN的方法、装置、设备和介质-CN202211341476.2在审
  • 邓联文;孙东旭;谢海鹏;邱雷雷;黄生祥 - 中南大学
  • 2022-10-25 - 2023-02-03 - G06F8/60
  • 本申请属于卷积神经网络加速领域,涉及一种在FPGA上部署CNN的方法,包括:获取需要在FPGA上部署的CNN模型并进行量化,得到量化CNN模型;构建部署框架,并在所述部署框架中编写所述量化CNN模型的每层代码以及层间代码;在所述量化CNN模型的层间设置流水,将上一层的输出数据即时作为下一层的输入数据并计算,得到第一优化指令;插入所述第一优化指令,对所述层间代码进行优化,得到第一代码;根据每层代码以及所述第一代码生成优化代码;构建部署工程,并调用根据所述优化代码导出的IP核,进行CNN运算并实现CNN模型在FPGA上的部署。采用本方法能够提高CNN在FPGA上运算的速度,减少CNN运算的时间,进而更好的提高CNN的实时性。
  • 一种fpga部署cnn方法装置设备介质

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top